Aperçu et paysage de l'évolution architecturale
Nous passons du succès fondamental d'AlexNet à l'ère des réseaux profonds extrêmes réseaux de neurones convolutifs (CNN). Ce changement a exigé des innovations architecturales profondes pour gérer une profondeur extrême tout en maintenant la stabilité de l'apprentissage. Nous analyserons trois architectures emblématiques—VGG, GoogLeNet (Inception), et ResNet—en comprenant comment chacune a résolu des aspects différents du problème d'échelle, posant les bases d'une interprétabilité rigoureuse des modèles ultérieurement dans cette leçon.
1. Simplicité structurelle : VGG
VGG a introduit le paradigme de maximisation de la profondeur en utilisant des tailles de noyaux extrêmement uniformes et petites (exclusivement filtres convolutifs 3x3 empilés). Bien que coûteux en calcul, son uniformité structurelle a prouvé que la profondeur brute, obtenue par une variation architecturale minimale, était un moteur principal des améliorations de performance, renforçant l'importance des champs réceptifs petits.
2. Efficacité computationnelle : GoogLeNet (Inception)
GoogLeNet a contré le coût computationnel élevé de VGG en privilégiant l'efficacité et l'extraction de caractéristiques à plusieurs échelles. L'innovation centrale est le module Inception, qui effectue des convolutions parallèles (1x1, 3x3, 5x5) et des opérations de pooling. Critiquement, il utilise les convolutions 1x1 comme goulots d'étranglement pour réduire considérablement le nombre de paramètres et la complexité computationnelle avant les opérations coûteuses.
La connexion sautée introduit un terme d'identité ($+x$) dans la sortie, créant un terme additif dans le chemin du gradient ($\frac{\partial \text{Loss}}{\partial H} = \frac{\partial \text{Loss}}{\partial F} + 1$). Ce terme assure un chemin direct pour que le signal de gradient remonte, garantissant que les poids amont reçoivent un signal de gradient non nul et utilisable, indépendamment de la taille des gradients traversant la fonction résiduelle $F(x)$.